L’usage revendiqué de l’intelligence artificielle par l’armée israélienne questionne le droit de la guerre


Bombardement de l’armée israélienne à la frontière avec Gaza, le 12 décembre 2023.

Parmi toutes les horreurs de la guerre qui a éclaté le 7 octobre entre Israël et le Hamas, il en est une qui est venue, de façon inattendue, ajouter une dimension dystopique à ce conflit : le recours assumé, par l’armée israélienne, à la puissance de l’intelligence artificielle (IA) pour maximiser son écrasement du mouvement islamiste. Une IA présentée comme une des composantes-clés de l’un de ses outils de ciblage pour ses campagnes de frappes aériennes sur la bande de Gaza, baptisé Habsora (« Evangile »).

Difficile de savoir à quel point cette révélation inopinée, début novembre, au lendemain de la trêve de sept jours ayant permis la libération de 110 otages, a été le résultat d’une stratégie de communication maîtrisée. Des enquêtes de presse rapportaient alors les états d’âme d’anciens membres de l’armée israélienne sur l’emploi de ce logiciel capable de proposer des cibles à une vitesse inédite à partir d’une masse de données hétérogènes. Les mots « intelligence artificielle » sont parfois un fourre-tout qui englobe beaucoup d’applications numériques, qu’elles soient civiles ou militaires.

Une chose apparaît néanmoins évidente, depuis, aux yeux d’experts : l’ampleur des destructions et le nombre inédit de victimes civiles à Gaza – plus de 18 000, selon le ministère de la santé du Hamas – pourraient faire bouger les lignes sur l’encadrement de l’IA dans les systèmes d’armes. « Cela fait des années que le sujet ne fait l’objet d’aucun consensus chez les spécialistes. Cette guerre pourrait permettre d’accélérer certains débats », soutient ainsi Julien Nocetti, chercheur associé à l’Institut français des relations internationales (IFRI), spécialiste des conflits numériques.

Lire le décryptage : Article réservé à nos abonnés Israël-Hamas : « Le Monde » face à la guerre des images

Les armements sont en effet aujourd’hui divisés en deux grandes catégories. D’un côté, les systèmes d’armes létales autonomes, totalement automatisés, dont il n’existe pas réellement d’exemples sur le marché. De l’autre, les systèmes d’armes létales « intégrant » de l’autonomie (SALIA), qui permettent en principe à l’homme de rester « dans la boucle ». Or l’immense majorité des puissances militaires occidentales – dont Israël avec Habsora – assurent aujourd’hui avoir fait le choix des SALIA, et peuvent ainsi jurer être du côté respectable de l’emploi de la force.

Mais, pour Laure de Roucy-Rochegonde, également chercheuse à l’IFRI, autrice d’une thèse sur la régulation des systèmes d’armes autonomes, les spécificités de la guerre entre Israël et le Hamas pourraient ringardiser ces catégories aux contours flous et redonner de la vigueur à un autre concept de régulation, celui de « contrôle humain significatif ». Une définition plus stricte, poussée sans grand succès jusqu’ici par certains défenseurs des droits de l’homme, dont une ONG dénommée Article 36. « Le problème, c’est que l’on ne sait pas quel type d’algorithme est utilisé [par l’armée israélienne], ni comment les données ont été agrégées. Ce ne serait pas un problème s’il n’y avait pas, au bout, une décision de vie ou de mort », reprend Mme de Roucy-Rochegonde.

Il vous reste 50% de cet article à lire. La suite est réservée aux abonnés.



Source
Catégorie article Politique

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.